首页> 外文OA文献 >Improving Neural Network Generalization by Combining Parallel Circuits with Dropout
【2h】

Improving Neural Network Generalization by Combining Parallel Circuits with Dropout

机译:结合并联电路改善神经网络的推广   辍学

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

In an attempt to solve the lengthy training times of neural networks, weproposed Parallel Circuits (PCs), a biologically inspired architecture.Previous work has shown that this approach fails to maintain generalizationperformance in spite of achieving sharp speed gains. To address this issue, andmotivated by the way Dropout prevents node co-adaption, in this paper, wesuggest an improvement by extending Dropout to the PC architecture. The paperprovides multiple insights into this combination, including a variety of fusionapproaches. Experiments show promising results in which improved error ratesare achieved in most cases, whilst maintaining the speed advantage of the PCapproach.
机译:为了解决神经网络训练时间过长的问题,我们提出了一种由生物学启发的架构的并行电路(PC)。以前的工作表明,尽管实现了明显的速度提升,但该方法仍无法保持通用性能。为了解决这个问题,并以Dropout防止节点协同的方式为动力,在本文中,我们建议通过将Dropout扩展到PC体系结构来进行改进。本文对这种组合提供了多种见解,包括各种融合方法。实验显示出令人鼓舞的结果,其中在大多数情况下可以提高错误率,同时保持PCapproach的速度优势。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号